Ausgeprägte analytische Fähigkeiten und Freude daran, fachliche Anforderungen in technische Lösungen zu übersetzen Selbstständige, strukturierte Arbeitsweise sowie hohe Kommunikations- und Teamfähigkeit Flexible Arbeitszeitmodelle sowie Mobile Office Ein breites Lernangebot und digitale Trainings Umfassende Gesundheitsangebote und zahlreiche kostenfreie Sportkurse Job-Ticket und Bike-Leasing Gehaltsinformationen Auf Anfrage Ihr Kontakt Ansprechpartner Julia Cyzewski Referenznummer 862466/1 Kontakt aufnehmen E-Mail: julia.cyzewski@hays.de Anstellungsart Festanstellung durch unseren Kunden
Ausgeprägte analytische Fähigkeiten und Freude daran, fachliche Anforderungen in technische Lösungen zu übersetzen Selbstständige, strukturierte Arbeitsweise sowie hohe Kommunikations- und Teamfähigkeit Flexible Arbeitszeitmodelle sowie Mobile Office Ein breites Lernangebot und digitale Trainings Umfassende Gesundheitsangebote und zahlreiche kostenfreie Sportkurse Job-Ticket und Bike-Leasing Gehaltsinformationen Auf Anfrage Ihr Kontakt Ansprechpartner Julia Cyzewski Referenznummer 862466/1 Kontakt aufnehmen E-Mail: julia.cyzewski@hays.de Anstellungsart Festanstellung durch unseren Kunden
Hier gestaltest Du Zukunft Du leitest anspruchsvolle Data-&-Analytics-Projekte und stellst sicher, dass unsere Kundschaft die beste Lösung für ihre Anforderungen erhalten. Du entwickelst Visualisierungskonzepte und Dashboards mit Looker und gerne auch mit weiteren Tools wie MS Power BI.
Hier gestaltest Du Zukunft Du leitest anspruchsvolle Data-&-Analytics-Projekte und stellst sicher, dass unsere Kundschaft die beste Lösung für ihre Anforderungen erhalten. Du entwickelst Visualisierungskonzepte und Dashboards mit Looker und gerne auch mit weiteren Tools wie MS Power BI.
Hier beweist Du Unternehmergeist Du tauchst in die Geschäftsprozesse und Methoden unserer Kunden ein und erkennst die fachlichen Anforderungen und setzt diese im Datenmanagement um Du berätst eigenständig und kompetent im Kontext von Datenmanagement, Data Warehousing & Data Lake.
Hier beweist Du Unternehmergeist Du tauchst in die Geschäftsprozesse und Methoden unserer Kunden ein und erkennst die fachlichen Anforderungen und setzt diese im Datenmanagement um Du berätst eigenständig und kompetent im Kontext von Datenmanagement, Data Warehousing & Data Lake.
Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt Databricks Strukturierung fachlicher Anforderungen und Umsetzung in effiziente technische Lösungen Verantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data Lakehouse Datenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende Anwendungen Umsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in Projekte Unterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und Datenintegration Cloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit Databricks Sicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte 30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf Firmenwagen Vielfältige Weiterbildungsangebote und interne Communities Absicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
B. mit Databricks, Spark oder Azure Data Factory) und erstellst robuste Datenmodelle Du stellst den stabilen Betrieb unserer BI Tools im Rahmen von Operations, Monitoring, Deployment und Incident Management sicher und legst Wert auf das Thema Datenqualität Du arbeitest eng mit Business Intelligence Engineers und Projektmanagern zu Business Anforderungen, Konzepten und Arbeitspaketen zusammen Dein Schwerpunkt liegt im Bereich Data Engineering, idealerweise bringst du jedoch auch Erfahrungen im Bereich BI Frontend mit (z.B.
B. mit Databricks, Spark oder Azure Data Factory) und erstellst Datenmodelle Du stellst den stabilen Betrieb unserer BI Tools im Rahmen von Operations, Monitoring, Deployment und Incident Management sicher Du arbeitest eng mit Business Intelligence Engineers bei der Erstellung von Management Dashboards und Berichten, in Form von gemeinsamen Anforderungen, Konzepten und Arbeitspaketen zusammen Dein Schwerpunkt liegt im Bereich Data Engineering, idealerweise bringst du jedoch auch Erfahrungen im Bereich BI Frontend mit (z.B.
Modernisierung der Datenplattform (Oracle, Snowflake)Weiterentwicklung des Snowflake-Datenmodells und Aufbau moderner ELT-PipelinesAnalyse von Daten aus verschiedene Quellsystemen und Übersetzung in optimale Snowflake-ZielmodelleErstellung und Pflege unternehmensweiter Datenmodelle sowie ArchitekturstandardsMitarbeit an Maßnahmen zur Sicherstellung von Datenqualität und an der Weiterentwicklung von Data-Governance-ProzessenAbstimmung mit IT, Fachbereichen und internen Stakeholdern im Rahmen von Anforderungen, Datenmodellen und ArchitekturentscheidungenNutzung moderner Snowflake-Funktionen sowie Anwendung etablierter Entwicklungs- und Betriebsstandards (z.
Modernisierung der Datenplattform (Oracle, Snowflake) Weiterentwicklung des Snowflake-Datenmodells und Aufbau moderner ELT-Pipelines Analyse von Daten aus verschiedene Quellsystemen und Übersetzung in optimale Snowflake-Zielmodelle Erstellung und Pflege unternehmensweiter Datenmodelle sowie Architekturstandards Mitarbeit an Maßnahmen zur Sicherstellung von Datenqualität und an der Weiterentwicklung von Data-Governance-Prozessen Abstimmung mit IT, Fachbereichen und internen Stakeholdern im Rahmen von Anforderungen, Datenmodellen und Architekturentscheidungen Nutzung moderner Snowflake-Funktionen sowie Anwendung etablierter Entwicklungs- und Betriebsstandards (z.
Sie bringen Daten zuverlässig, nachvollziehbar und performant an ihr Ziel – aus SAP- und Non-SAP-Quellen in eine moderne, cloudnahe Datenplattform. Sie übernehmen End-to-End-Verantwortung von der Anforderung bis zur produktiven Strecke. IHRE AUFGABEN Design, Entwicklung und Betrieb von ETL-/ETL-Strecken mit SAP Data Services und SAP Datasphere – inkl.
Sie bringen Daten zuverlässig, nachvollziehbar und performant an ihr Ziel – aus SAP- und Non-SAP-Quellen in eine moderne, cloudnahe Datenplattform. Sie übernehmen End-to-End-Verantwortung von der Anforderung bis zur produktiven Strecke. IHRE AUFGABEN Design, Entwicklung und Betrieb von ETL-/ETL-Strecken mit SAP Data Services und SAP Datasphere – inkl.
Terraform, und CI/CD-Workflows Tiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und Datenmodellierung Erfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder Snowflake Sehr gutes Verständnis für Data Governance, Sicherheit und Datenschutz Idealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQL Die Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln Kommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.
Terraform, und CI/CD-WorkflowsTiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und DatenmodellierungErfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder SnowflakeSehr gutes Verständnis für Data Governance, Sicherheit und DatenschutzIdealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQLDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermittelnKommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.
Power BI) sowie Sicherstellung der verwendbaren Datenversorgung für das ProjektAnalyse fachlicher Anforderungen aus den Teilbereichen des Projekts sowie Ableitung von IT Architekturen und technischen KonzeptenAbstimmung mit beteiligten Fachbereichen, IT Teams und externen Partnern Tiefes Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-LösungenErfahrung in Projekten rund um Cloud-Datenplattformen, Data Engineering, Schnittstellen und DatenintegrationTechnologisches Know-how (mind. in mehreren Bereichen)Azure Data Services, insbesondere: Databricks, Data Factory, Azure DevOps, Power BIContainertechnologien (Docker, Kubernetes)Python, Git, CI/CDETL-/ELT-Prozesse, z.B. über REST-APIsSQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche BezahlungBetriebliche AltersvorsorgeBetreuung im gesamten BewerbungsprozessEin renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865599/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Power BI) sowie Sicherstellung der verwendbaren Datenversorgung für das Projekt Analyse fachlicher Anforderungen aus den Teilbereichen des Projekts sowie Ableitung von IT Architekturen und technischen Konzepten Abstimmung mit beteiligten Fachbereichen, IT Teams und externen Partnern Tiefes Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-Lösungen Erfahrung in Projekten rund um Cloud-Datenplattformen, Data Engineering, Schnittstellen und Datenintegration Technologisches Know-how (mind. in mehreren Bereichen) Azure Data Services, insbesondere: Databricks, Data Factory, Azure DevOps, Power BI Containertechnologien (Docker, Kubernetes) Python, Git, CI/CD ETL-/ELT-Prozesse, z.B. über REST-APIs SQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche Altersvorsorge Betreuung im gesamten Bewerbungsprozess Ein renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865599/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Konkret treibst Du in Deiner Beratungsfunktion die verschiedensten Projekte voran – von der Absprache der Use Cases (Anwendungsfälle) inklusive der notwendigen Ressourcen zum Aufbau einer Datenmanagement-Plattform über die Entwicklung der technischen Architektur (logische & Software-Architektur) bis zur Lösungsimplementierung. Dabei berücksichtigst Du auch AI Use Cases und deren Anforderungen an Datenverfügbarkeit, Modelltraining und Deployment. Außerdem bindest Du aktuelle Themen und innovative Trends (z. B. Cloud-Services, Data Mesh, Lakehouse-Architekturen) mit ein und definierst mit Deinen Gesprächspartnern auf Kundenseite dazugehörige Organisations-, Prozess- und Governance-Strukturen, einschließlich AI-Governance-Aspekten wie Modellverantwortung, Fairness und Transparenz.
Konkret treibst Du in Deiner Beratungsfunktion die verschiedensten Projekte voran – von der Absprache der Use Cases (Anwendungsfälle) inklusive der notwendigen Ressourcen zum Aufbau einer Datenmanagement-Plattform über die Entwicklung der technischen Architektur (logische & Software-Architektur) bis zur Lösungsimplementierung. Dabei berücksichtigst Du auch AI Use Cases und deren Anforderungen an Datenverfügbarkeit, Modelltraining und Deployment. Außerdem bindest Du aktuelle Themen und innovative Trends (z. B. Cloud-Services, Data Mesh, Lakehouse-Architekturen) mit ein und definierst mit Deinen Gesprächspartnern auf Kundenseite dazugehörige Organisations-, Prozess- und Governance-Strukturen, einschließlich AI-Governance-Aspekten wie Modellverantwortung, Fairness und Transparenz.
Anforderungsanalyse und Umsetzung: Du strukturierst und priorisierst fachliche Anforderungen und setzt diese erfolgreich in technische Lösungen um.Data-Engineering: Du arbeitest vorrangig in den Bereichen Data Management und Data Processing – von der Datenintegration und -bewirtschaftung über den Aufbau klassischer DWH-Systeme bis hin zu hybriden Architekturen wie z.B.
Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt DatabricksStrukturierung fachlicher Anforderungen und Umsetzung in effiziente technische LösungenVerantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data LakehouseDatenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende AnwendungenUmsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in ProjekteUnterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und DatenintegrationCloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit DatabricksSicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf FirmenwagenVielfältige Weiterbildungsangebote und interne CommunitiesAbsicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
Für einen unserer Großkunden suchen wir derzeit eine Unterstützung, die die nachfolgenden Anforderungen erfüllt: Ihre Aufgaben: Implementierung von agentischen Analysesystemen auf Basis strukturierter Daten insbesondere SQL Datenbanken unter Verwendung von LangChain oder LangGraph in Python Analyse, Umstrukturierung und Beschreibung bestehender Datenlandschaften zur optimalen Nutzung in AI Agentensystemen Sicherstellung der Ergebnisqualität von KI Anwendungen beispielsweise durch Evaluationsmethoden wie LLM as a Judge Entwicklung, Containerisierung und Deployment von Anwendungen in einer bestehenden OpenShift Umgebung Erstellung technischer Dokumentationen der entwickelten Systeme und Lösungen Zusammenarbeit mit Data Science, MLOps und Fachbereichen zur Umsetzung produktiver KI Anwendungen Ihr Profil: Umfangreiche Projekterfahrungen (mindestens 3 Projekte) im Bereich KI-Agenten unter Verwendung von LangChain/LangGraph im operativen Einsatz mit, die im Rahmen pro Referenzprojekt nachgewiesen werden können.
Verantwortungen Entwicklung robuster Datenmodelle auf Basis finanzieller und operativer Daten, um komplexe Analysen für unsere Finance-Teams zu ermöglichen Durchführung fortgeschrittener quantitativer Analysen großer, mehrquelliger Datensätze – inklusive der Verknüpfung von operativen und buchhalterischen Daten mit den Anforderungen der Finanzberichterstattung Eigenständige Leitung von datengetriebenen Reporting-Projekten – von der Konzeption bis zur Umsetzung – unter Einsatz von deskriptiven, diagnostischen und prädiktiven Analyseansätzen Durchführung explorativer Datenanalysen (EDA) und Datenmodellierung, um Muster und Zusammenhänge in den Daten zu erkennen – auch ohne klar definierten Business-Kontext Agiere als vertrauensvoller Partner und Impulsgeber für daten- und finanzrelevante Themen Gestaltung und Implementierung interaktiver Dashboards in Google BigQuery und Looker Studio Anforderungen Abgeschlossenes Studium der Wirtschaftsinformatik, Finanzen, Volkswirtschaftslehre, Betriebswirtschaftslehre oder eines vergleichbaren Fachbereichs Mehrjährige Berufserfahrung im Bereich Data Analytics, idealerweise mit Finance Fokus Fundierte Kenntnisse in Datenmodellierung und explorativer Datenanalyse mit SQL und Python Fähigkeit, komplexe Daten zu interpretieren, Ursachen zu identifizieren und Ergebnisse verständlich an technische wie nicht-technische Zielgruppen zu kommunizieren Ausgeprägte analytische Fähigkeiten, Neugier und hohe Detailgenauigkeit Proaktive, lösungsorientierte Denkweise sowie ein starkes Verantwortungsbewusstsein Erfahrung mit Cloud-basierten Datenlösungen (z.
Du analysierst bestehende Daten- und Organisationsstrukturen und entwickelst tragfähige Empfehlungen – auch für Greenfield-Ansätze. Du übersetzt fachliche Anforderungen in präzise technische, klare, wartbare und konsistente Collibra-Konfigurationen. Du moderierst Workshops mit Data Ownern, Fachbereichen und relevanten Stakeholdern - auf Augenhöhe und mit Struktur.
Du analysierst bestehende Daten- und Organisationsstrukturen und entwickelst tragfähige Empfehlungen – auch für Greenfield-Ansätze. Du übersetzt fachliche Anforderungen in präzise technische, klare, wartbare und konsistente Collibra-Konfigurationen. Du moderierst Workshops mit Data Ownern, Fachbereichen und relevanten Stakeholdern - auf Augenhöhe und mit Struktur.
Mein Arbeitgeber Als erfolgreicher, wachsender mittelständischer Anbieter relevanter und innovativer daten- und KI-getriebener Lösungen zur Optimierung der Entscheidungsfindung für namhafte Unternehmen bietet dieser Arbeitgeber eine aufgeschlossene, agile und von Fortschritt geprägte Kultur, in der Teamwork, Eigenverantwortung und kontinuierliches Lernen von hoher Bedeutung sind Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Konzeption, Umsetzung und Weiterentwicklung von Generative-AI- und NLP-Systemen, die Kundenanforderungen in Bezug auf Performance, Latenz, Kosten und Erweiterbarkeit optimal erfüllen Regelmäßige Abstimmung mit Stakeholdern bzgl. der Anforderungen Enge Zusammenarbeit mit EntwicklerInnen und Technical Leads für die Umsetzung und Use Cases wie Retrieval-basierten Chatbots, Agentensystemen oder Fine-Tuning von Sprachmodellen Planung und Implementierung robuster Machine Learning-Pipelines nach Best Practices - auf Azure, AWS oder GCP Input bei komplexen technischen Herausforderungen sowie Präsentation von Lösungsansätzen Aktive Verfolgung neuer Entwicklungen in NLP und KI, um KundInnen stets moderne, hochwertige Lösungen anzubieten Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Science und idealerweise im Umgang mit mehreren der typischen NLP-/LLM-Tools wie OpenAI APIs, Bedrock, Azure AI Foundry, LangChain, LangGraph, Instructor, Hugging Face, Tokenizers, Vektordatenbanken, performanter Inferenz, Model Deployment, MCP/A2A und Datensatz-Erstellung Sehr gute Kenntnisse in Machine Learning und Deep Learning, insbesondere im Bezug auf Transformer-Modelle, LLMs und Generative KI Sicherer Umgang mit produktionsreifen Frameworks wie PyTorch sowie mit Agent-Frameworks wie LangGraph, SmolAgents, OpenAI Agent SDK, CrewAI oder PydanticAI Tiefes Verständnis der Model-Optimierung mit PEFT wie QLoRA, Instruction Fine-Tuning, Post-Training, Inference-Optimierung und Embeddings Sicher in Workflows wie Conversational AI, RAG, Info Extraction, Tool Calling, LLM-Evaluation Kenntnisse in Agentic RAG, GraphRAG, Multi-Agent-Systemen, Text-to-SQL und Code Retrieval Sehr gutes Verständnis für Deployments und MLOps auf Azure, GCP oder AWS Hoher Anspruch an Softwarequalität und die Fähigkeit, sauberen, performanten, skalierbaren Code zu schreiben und KI-Systeme produktiv einzusetzen Die Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln sowie gute Deutsch- und Englischkenntnisse Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Mein Arbeitgeber Als erfolgreicher, wachsender mittelständischer Anbieter relevanter und innovativer daten- und KI-getriebener Lösungen zur Optimierung der Entscheidungsfindung für namhafte Unternehmen bietet dieser Arbeitgeber eine aufgeschlossene, agile und von Fortschritt geprägte Kultur, in der Teamwork, Eigenverantwortung und kontinuierliches Lernen von hoher Bedeutung sind Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Konzeption, Umsetzung und Weiterentwicklung von Generative-AI- und NLP-Systemen, die Kundenanforderungen in Bezug auf Performance, Latenz, Kosten und Erweiterbarkeit optimal erfüllenRegelmäßige Abstimmung mit Stakeholdern bzgl. der Anforderungen Enge Zusammenarbeit mit EntwicklerInnen und Technical Leads für die Umsetzung und Use Cases wie Retrieval-basierten Chatbots, Agentensystemen oder Fine-Tuning von SprachmodellenPlanung und Implementierung robuster Machine Learning-Pipelines nach Best Practices - auf Azure, AWS oder GCP Input bei komplexen technischen Herausforderungen sowie Präsentation von LösungsansätzenAktive Verfolgung neuer Entwicklungen in NLP und KI, um KundInnen stets moderne, hochwertige Lösungen anzubieten Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Science und idealerweise im Umgang mit mehreren der typischen NLP-/LLM-Tools wie OpenAI APIs, Bedrock, Azure AI Foundry, LangChain, LangGraph, Instructor, Hugging Face, Tokenizers, Vektordatenbanken, performanter Inferenz, Model Deployment, MCP/A2A und Datensatz-ErstellungSehr gute Kenntnisse in Machine Learning und Deep Learning, insbesondere im Bezug auf Transformer-Modelle, LLMs und Generative KISicherer Umgang mit produktionsreifen Frameworks wie PyTorch sowie mit Agent-Frameworks wie LangGraph, SmolAgents, OpenAI Agent SDK, CrewAI oder PydanticAITiefes Verständnis der Model-Optimierung mit PEFT wie QLoRA, Instruction Fine-Tuning, Post-Training, Inference-Optimierung und Embeddings Sicher in Workflows wie Conversational AI, RAG, Info Extraction, Tool Calling, LLM-EvaluationKenntnisse in Agentic RAG, GraphRAG, Multi-Agent-Systemen, Text-to-SQL und Code RetrievalSehr gutes Verständnis für Deployments und MLOps auf Azure, GCP oder AWSHoher Anspruch an Softwarequalität und die Fähigkeit, sauberen, performanten, skalierbaren Code zu schreiben und KI-Systeme produktiv einzusetzenDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln sowie gute Deutsch- und Englischkenntnisse Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Analyst (m/w/d) Deine Aufgaben Du analysierst, designst und realisierst innovative Business Intelligence (BI) Lösungen Du erfasst und spezifizierst fachliche Anforderungen Du analysierst Prozesse und erarbeitest Optimierungspotentiale Du erstellst Reports und Dashboards Du erarbeitest Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme und Datenbankstrukturen Du unterstützt unsere Fachbereiche bei BI-Fragestellungen Dein Profil Basic: Du hast eine berufliche Ausbildung oder ein Studium im Bereich der Informatik, Mathematik, Wirtschafts-, Natur- oder Ingenieurwissenschaften.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Engineer (m/w/d) Deine Aufgaben Du konzipierst, entwickelst und wartest Datenintegrations- und Modellierungsprozesse im Data Warehouse Du erstellst Konzepte für Daten-Architekturen (u.a. zur Umsetzung von Datenvisualisierungen) Du unterstützt die Fachbereiche bei der Umsetzung von Anforderungen Du setzt Berechtigungskonzepte um Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung und gute IT-Kenntnisse.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Engineer (m/w/d) Deine Aufgaben Du konzipierst, entwickelst und wartest Datenintegrations- und Modellierungsprozesse im Data Warehouse Du erstellst Konzepte für Daten-Architekturen (u.a. zur Umsetzung von Datenvisualisierungen) Du unterstützt die Fachbereiche bei der Umsetzung von Anforderungen Du setzt Berechtigungskonzepte um Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung und gute IT-Kenntnisse.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Analyst (m/w/d) Deine Aufgaben Du analysierst, designst und realisierst innovative Business Intelligence (BI) Lösungen Du erfasst und spezifizierst fachliche Anforderungen Du analysierst Prozesse und erarbeitest Optimierungspotentiale Du erstellst Reports und Dashboards Du erarbeitest Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme und Datenbankstrukturen Du unterstützt unsere Fachbereiche bei BI-Fragestellungen Dein Profil Basic: Du hast eine berufliche Ausbildung oder ein Studium im Bereich der Informatik, Mathematik, Wirtschafts-, Natur- oder Ingenieurwissenschaften.
Anforderungen IRT Expert:Masterabschluss in Naturwissenschaften und mehrere Jahre Erfahrung in einer verwandten wissenschaftlichen Disziplin oder Bachelorabschluss mit langjähriger Erfahrung in einem verwandten Bereich oder umfangreiche Erfahrung im Qualitätsumfeld.Erfahrung im IRT-Bereich, nachgewiesenes vertieftes Wissen über die technischen Aspekte und Funktionen eines IRT-Systems.Gute Kenntnisse des generischen Software-Entwicklungszyklus, einschließlich der Validierung von Cloud-Systemen.Gute Kenntnisse der regulatorischen Anforderungen und GMP/GCP-Vorgaben in der Pharmaindustrie und deren Anwendung auf die Funktion sind erforderlich.Gute Kenntnisse globaler investigativer Arzneimittelaktivitäten sowie allgemeiner klinischer Studienausführung und -design.Fähigkeit, komplexe Aufgaben eigenständig zu initiieren und zu analysieren, unter Berücksichtigung der geltenden Vorschriften, Wirtschaftlichkeit und Zeitpläne.Ausgezeichnete Kommunikationsfähigkeiten und fließend in Englisch, sowohl in Wort als auch in Schrift.
API, Middleware, MES, LIMS)Beratende Tätigkeit für Digitalisierungsfragen in einem Pharma Unternehmen Nachweisliche Erfahrung in KMU-Umgebungen mit Verantwortung für ganzheitliche DigitalisierungsprogrammeTiefgehende Kompetenz in der Automatisierung papierbasierter ProzesseSicherer Umgang mit heterogenen Geräteparks und komplexen GerätedatenFundierte Kenntnisse in Datenarchitekturen (zentral/dezentral, Cloud/On-Prem, Data Lakes)Erfahrung mit LIMS, MES, DMS oder vergleichbaren SystemenVertrautheit mit GxP, CSV, Audit Trails und Data Integrity (ALCOA+) Fundierte Erfahrung in Automatisierung papierbasierter ProzesseExpertise im Umgang mit heterogenen Geräteparks und GerätedatenFähigkeit, komplexe technische Themen für Stakeholder verständlich aufzubereitenErfahrung in Konzeption, Dokumentation, ProzessmodellierungFähigkeit, technische Anforderungen in konkrete Umsetzungspläne zu übersetzen Spannendes Projekt bei renomiertem Pharmaunternehmen Ihr Kontakt Ansprechpartner Sara Zdrilic Referenznummer 863068/1 Kontakt aufnehmen Telefon:+43-(0)1-5353443208 E-Mail: sara.zdrilic@hays.at Anstellungsart Freiberuflich für ein Projekt
Die Position verbindet technische Umsetzung mit geschäftlicher Ausrichtung und stellt sicher, dass Lösungen an sich verändernde kommerzielle Anforderungen angepasst werden können, während gleichzeitig architektonische Konsistenz und Standardisierung gewährleistet bleiben. Aufgabenbereiche Mitarbeit in Projekten des europäischen Data Science & Advanced Analytics Teams.Konzeption, Design, Entwicklung und Umsetzung komplexer innovativer KI-/Machine‑Learning‑Lösungen sowie Durchführung und Implementierung von Konzeptstudien unter Einsatz fortgeschrittener statistischer Methoden.Entwicklung von Deep‑Learning‑Modellen zur Extraktion strukturierter medizinischer Konzepte aus unstrukturierten Daten.Produktionsreife Implementierung von Machine‑Learning‑Algorithmen auf Big‑Data‑Plattformen.Anwendung moderner Data‑Mining‑ und Machine‑Learning‑Techniken im Zusammenhang mit Healthcare‑Big‑Data zur Identifikation komplexer Zusammenhänge und zur Verknüpfung heterogener Datenquellen.Fortgeschrittener Einsatz von Large Language Models für Zusammenfassungen, Chatbots, Entitätsextraktion usw.Entwicklung grundlegender Deep‑Learning‑Modelle für Assets und Patienten.Aufbau und Training neuer produktionsreifer Algorithmen, die aus komplexen, hochdimensionalen Daten lernen und Muster erkennen, aus denen ML‑Modelle und Anwendungen entwickelt werden können.
Zusammenarbeit und Automatisierung In enger Zusammenarbeit mit internen Stakeholdern definierst Du Reporting-Anforderungen und treibst die Automatisierung von Datenprozessen voran, um Effizienz und Qualität nachhaltig zu steigern. Was Dich auszeichnet: Ausbildung und Berufserfahrung Du hast ein abgeschlossenes Studium in Wirtschaftsinformatik, Betriebswirtschaft, Logistik, Data Science oder einer vergleichbaren Fachrichtung.
API, Middleware, MES, LIMS) Beratende Tätigkeit für Digitalisierungsfragen in einem Pharma Unternehmen Nachweisliche Erfahrung in KMU-Umgebungen mit Verantwortung für ganzheitliche Digitalisierungsprogramme Tiefgehende Kompetenz in der Automatisierung papierbasierter Prozesse Sicherer Umgang mit heterogenen Geräteparks und komplexen Gerätedaten Fundierte Kenntnisse in Datenarchitekturen (zentral/dezentral, Cloud/On-Prem, Data Lakes) Erfahrung mit LIMS, MES, DMS oder vergleichbaren Systemen Vertrautheit mit GxP, CSV, Audit Trails und Data Integrity (ALCOA+) Fundierte Erfahrung in Automatisierung papierbasierter Prozesse Expertise im Umgang mit heterogenen Geräteparks und Gerätedaten Fähigkeit, komplexe technische Themen für Stakeholder verständlich aufzubereiten Erfahrung in Konzeption, Dokumentation, Prozessmodellierung Fähigkeit, technische Anforderungen in konkrete Umsetzungspläne zu übersetzen Spannendes Projekt bei renomiertem Pharmaunternehmen Ihr Kontakt Ansprechpartner Sara Zdrilic Referenznummer 863068/1 Kontakt aufnehmen Telefon:+43-(0)1-5353443208 E-Mail: sara.zdrilic@hays.at Anstellungsart Freiberuflich für ein Projekt
RLS/OLS, Tenant- und Workspace-Modelle, Sensitivity- und Compliance-Anforderungen) Erfahrung in der Zusammenarbeit mit heterogenen Systemlandschaften sowie einer zentralen Datenplattform (z. B. GCP) als primäre Datenquelle Agile Arbeitsweise sowie sicherer Umgang mit Jira und Confluence Sehr gute Deutschkenntnisse und gute Englischkenntnisse (min.
Finanzwesen, Industrie und öffentlicher Dienst Einbindung in laufende Entwicklungs-, Test- und Projektprozesse mit echtem Praxisbezug Enge Zusammenarbeit mit Entwicklern, Projektverantwortlichen und weiteren Schnittstellen Regelmäßiger Austausch zu Arbeitsfortschritt, Anforderungen, Testergebnissen und Optimierungen Strukturierte Einarbeitung sowie Unterstützung durch erfahrene Kolleg:innen Eine steile fachliche Lernkurve in einem kollegialen und unterstützenden Umfeld Je nach Einsatzbereich übernimmst du unter anderem folgende Aufgaben: Fullstack Entwicklung (Schwerpunkt Backend) Unterstützung bei Bugfixing, Updates und der Weiterentwicklung bestehender Anwendungen Mitarbeit an Backend- und Frontend-Komponenten Durchführung und Unterstützung bei Entwickler- und Funktionstests App Testing Installation, Nutzung und systematisches Testen von mobilen Anwendungen Testen verschiedener Datenübernahme-Szenarien (automatisch oder manuell Import/Export) Dokumentation von Testergebnissen, Auffälligkeiten und Verbesserungsvorschlägen Bereitstellung von Testdaten über definierte Import- und Exportprozesse Projekt- und Programmkoordination (Banking / AI & Data) Unterstützung bei der Organisation und Gestaltung des Bereiches AI & Data Services Unterstützung bei der Planung, Koordination und Dokumentation von Projekten Unterstützung bei der Recherche und Konzeption von innovativen Proof of Concepts Vorbereitung von Übersichten, Statusberichten und Präsentationen (MS Office) Pflege und Nutzung u.a. von Jira, Confluence, KI-Tools Kommunikation mit internen und externen Ansprechpartnern in deutscher und englischer Sprache Laufendes (Fach)-Hochschulstudium der Informatik, Wirtschaftsinformatik oder vergleichbaren IT-nahen Studiengängen Grundlegende Kenntnisse im Testing-Umfeld / in der Projektkoordination / über Big Data und Datenmanagement Erste Praxiserfahrung mit objektorientierter Programmierung (OOP) wie z.B.
Entwickeln einer Datenstrategie in Abstimmung mit den Geschäftszielen der KundenEntwerfen und Implementieren von komplexen Datenmodellen und OntologienSchaffen einer konsolidierten DatenbasisSicherstellung der Datenqualität auf höchstem NiveauPlanen und Gestalten von Datenarchitektur für verschiedene Anwendungen und SystemeEntwickeln und Implementieren von Data-Governance-VerfahrenAuswahl von Datenbanken, Tools und Technologien in Abstimmung mit den Anforderungen unserer KundenLeiten eines Teams von Architekten und Entwicklern, Unterstzützung derer bei der beruflichen WeiterentwicklungDeutsch fließend in Wort und Schrift (C1), gute EnglischkenntnisseAbgeschlossenes Studium im Bereich Informatik, Datenwissenschaft oder adäquate QualifikationMehrere Jahre Berufserfahrung als Datenarchitekt oder in einer ähnlichen PositionErfahrung in der Arbeit mit Datenintegrationstools und -technologienKenntnisse in Data-Governance und DatenschutzbestimmungenAnalytische Fähigkeiten und die Fähigkeit, komplexe Probleme zu lösenKommunikations- und TeamführungsfähigkeitenInnovatives, modernes und anspruchsvolles Arbeitsumfeld mit flachen Hierarchien und der Möglichkeit, eigene Stärken individuell einzubringenLangfristige berufliche PerspektivenAttraktive EntlohnungFlexible Arbeitszeiten und Home-OfficeModernes Arbeitsumfeld in coolen Büros, in denen wir auch auf deine Gesundheit achten, z.
Rechtswissenschaften, Wirtschaftsinformatik oder vergleichbar)Mehrjährige Berufserfahrung im Datenschutz oder in angrenzenden RechtsgebietenFundierte Kenntnisse der Datenschutzgesetze (insbesondere DSGVO, BDSG)Analytisches Denken, Kommunikationsstärke und sicheres AuftretenSehr gute Deutsch- und Englischkenntnisse UNSER ANGEBOT Mobile Working und flexible ArbeitszeitmodelleUmfangreiche Karriere- und WeiterbildungsmöglichkeitenSport- und Gesundheitsprogramm HELLA in Motion sowie Partner des Firmenfitness-Netzwerks WELLPASSVergünstigtes Deutschlandticket für Bus und Bahnkostenfreie Kaffeespezialitäten und Wasser, Betriebsrestaurants und CafésFahrradleasing sowie zahlreiche MitarbeitervergünstigungenBetriebliche Altersvorsorge mit HELLA ZuschussUnterstützung rund um das Thema Familie: Familienservice sowie Beratung bei der Pflege AngehörigerMitarbeiterevents Auch wenn Sie nicht alle unsere Anforderungen erfüllen, zögern Sie nicht, sich bei uns zu bewerben, denn die Weiterentwicklung unserer Mitarbeiter liegt uns sehr am Herzen und eröffnet Ihnen vielfältige Möglichkeiten in unserem Unternehmen.
Probieren Sie es aus und erfahren Sie, was der Markt Ihnen zu bieten hat – völlig kostenfrei, diskret und unverbindlich! Wir freuen uns auf Sie. Umsetzung von Anforderungen mehrheitlich im Backend (Java, Spring Boot, Postgres) sowie teilweise im Frontend (Angular, Typescript) Durchführung von technischen Konzeptionen, Analysen und Design neuer Features Entwicklung von Spring-Webapplikationen in der Azure Cloud Entwicklung und Pflege von CI/CD-Pipelines für Code-, Daten- und Modellbereitstellungen Gemeinsame Verantwortung für die Applikation ChatGPT-Skill Initiale Entwicklung, kontinuierliche Weiterentwicklung und stabiler Betrieb der Systeme im Rahmen der DevOps-Philosophie Fundierte Berufserfahrung auf Senior-Stufe in der Entwicklung moderner Webapplikationen Sehr gute Kenntnisse in Java, Spring Boot, Angular und Typescript Hochschulabschluss in Informatik oder gleichwertige Berufserfahrung Gutes Verständnis von generativen KI-Lösungen (Azure OpenAI Service), einschliesslich Infrastruktur-, Datenverarbeitungs- und Bereitstellungsanforderungen Fähigkeit zur Zusammenarbeit mit Data Scientists, Entwicklern und Solution Architects Bereitschaft, Wissen zu teilen und Teammitglieder in Applikationsentwicklung, IaC und CI/CD zu schulen Python-Erfahrung von Vorteil Sprachkenntnisse: Deutsch C2, Englisch B2 Arbeit in einem DevOps-Team bestehend aus Data Scientists, Business Engineers und DevOps Engineers Mitarbeit am Aufbau einer GenAI-Plattform sowie an der Weiterentwicklung des ChatGPT-Skills Tätigkeit in einem modernen technischen Umfeld mit Cloud-, CI/CD- und GenAI-Technologien Ihr Kontakt Referenznummer 860773/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Dies beinhaltet auch die Analyse anzubindender Datenquellen sowie die Integration in dazugehörige Datenmodelle Umsetzung der Anforderungen mittels eigenverantwortlicher Erstellung und Einsteuerung von User Stories zu konzipierten Funktionalitäten bei der IT und externen Dienstleistern.
Du bist strategische:r Sparringspartner:in im Umgang mit Daten unter Berücksichtigung fachlicher, technischer und organisatorischer Anforderungen. Du führst federführend flexible Datenarchitekturen und leitest deren Implementierung an. Du gestaltest die Architektur der Komponenten unter den Aspekten (Meta)datenmanagement, Datenversorgung, -management, -qualität, -migration und integrierst sie nahtlos in bestehende IT-Architekturen.
Unbefristeter Arbeitsvertrag Einsatz bei renommierte Kunden/ Weltmarktführer Betreuung vom Bewerbungsgespräch bis zur Einstellung Ihre Aufgaben: Beratung und Unterstützung der Mitarbeiter weltweit in Bezug auf Einsatzmöglichkeiten, Leistungsfähigkeit und optimale Nutzung von vorhandenen Datenanalyse-Tools Unterstützung bei der Analyse und Verbesserung der Datenqualität Verantwortung für die Aufnahme, Bewertung und Festlegung des Leistungsumfanges im Bereich Data Mining und Data Analytics Implementierung, Test, Anwenderabnahme, Dokumentation und Produktivsetzung von Anforderungen im Bereich Data Mining und Data Analytics Identifizierung der entsprechenden Rohdaten, Design der notwendigen Datenmodelle und Automatisierung der Umwandlung dieser Rohdaten in entscheidungsrelevante Informationen Unterstützung bei der Auswahl neuer Softwarelösungen durch Erstellung von Lasten- /Pflichtenheften und Evaluierungsmatrizen sowie durch fachliche Bewertung der Angebote Übernahme der Projekt- bzw.
Du unterstützt Kunden bei der Umsetzung datensouveräner Cloud-Lösungen und europäischer Cloud-Strategien, um Compliance-Anforderungen und regulatorische Vorgaben zu erfüllen. Du erforschst gemeinsam mit unserem interdisziplinären Team innovative KI-Technologien und AI-Services und integrierst diese in modernen Cloud-Umgebungen.
Operative Unterstützung bei der Umsetzung des EU AI ACT Analyse und Bewertung bestehender AI- und Datenmodelle hinsichtlich regulatorischer Konformität Klassifizierung, Dokumentation und Risikobewertung bankinterner AI-Systeme Anpassung von Datenpipelines, Modellierungsprozessen und Governance-Strukturen gemäß EU AI ACT Erstellung revisionssicherer Dokumentationen und Reports sowie Begleitung interner/externer Prüfungen Bankenerfahrung ist Voraussetzung Tiefes Know-how in Machine Learning, Data Analytics und statistischer Modellierung Erfahrung in regulatorischen Umsetzungsprojekten in Banken, insbesondere EU AI ACT, BAIT, Modellrisikomanagement Sichere Kenntnisse in Python, gängigen ML-Frameworks, MLOps-Umgebungen und Datenqualitätsverfahren Nachweisbare Erfahrung in Modellvalidierung, Dokumentation und Modell-Governance im Finanzsektor Fähigkeit, komplexe technische Inhalte in klare regulatorische Anforderungen zu übersetzen Dynamisches Projektumfeld Ihr Kontakt Referenznummer 866057/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
Ihre Aufgaben: Konzeption, Modellierung und Realisierung von Datawarehouse-/BI-Lösungen zusammen mit IT-Leitung und Fachkolleg*innenEntwicklung, Wartung und Optimierung von ETL-/ELT-Prozessen und DatenbankenDatenbankprogrammierung, Datenmodellierung und Prozessoptimierung zur DatenbereitstellungErfassung fachlicher Anforderungen und Umsetzung von Datenflüssen und -strukturenDurchführung von Ad-hoc-Analysen, Berichtserstellung und Dokumentationen Ihr Profil: Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Statistik, BWL oder vergleichbare Ausbildung (Quereinsteiger mit Erfahrung willkommen)Erfahrung in Datenbankprogrammierung (SQL), Datenmodellierung und Entwicklung von ETL-/ELT-StreckenIdealerweise Kenntnisse in Microsoft Azure Data Diensten (z.
Du zeichnest dich durch hohe Lernbereitschaft und Teamgeist aus Unsere Stellenausschreibung gibt Dir einen Einblick in die Anforderungen der Position. Falls Du nicht alle Anforderungen mitbringst, kein Problem. Für uns zählst Du als Mensch und Deine Motivation.Zukunftsbranche: Du erhältst einen spannenden Einblick in die MedizintechnikPraxiserfahrung: Die Möglichkeit, Dein im Studium erlangtes Wissen in der Praxis anzuwenden und relevante Berufserfahrung zu sammeln, Miteinander: Gemeinsam für das Patientenwohl!
Operative Unterstützung bei der Umsetzung des EU AI ACTAnalyse und Bewertung bestehender AI- und Datenmodelle hinsichtlich regulatorischer KonformitätKlassifizierung, Dokumentation und Risikobewertung bankinterner AI-SystemeAnpassung von Datenpipelines, Modellierungsprozessen und Governance-Strukturen gemäß EU AI ACTErstellung revisionssicherer Dokumentationen und Reports sowie Begleitung interner/externer Prüfungen Bankenerfahrung ist VoraussetzungTiefes Know-how in Machine Learning, Data Analytics und statistischer ModellierungErfahrung in regulatorischen Umsetzungsprojekten in Banken, insbesondere EU AI ACT, BAIT, ModellrisikomanagementSichere Kenntnisse in Python, gängigen ML-Frameworks, MLOps-Umgebungen und DatenqualitätsverfahrenNachweisbare Erfahrung in Modellvalidierung, Dokumentation und Modell-Governance im FinanzsektorFähigkeit, komplexe technische Inhalte in klare regulatorische Anforderungen zu übersetzen Dynamisches Projektumfeld Ihr Kontakt Referenznummer 866057/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
Bachelorabschluss oder höherer Abschluss (Universität, FH) in Wirtschaftsinformatik, Data Science, Controlling, BWL, Information Systems oder einer vergleichbaren Fachrichtung Stark ausgeprägtes analytisches Denkvermögen, hohe Datenaffinität und Fähigkeit, komplexe Anforderungen in strukturierte Lösungen zu überführen Interesse am Ausbau von Kenntnissen in BI-Tools, Datenmodellierung und Prozessautomatisierung sowie Bereitschaft zur kontinuierlichen Weiterbildung Selbstständige, zuverlässige und qualitätsbewusste Arbeitsweise mit hohem Detailfokus Gute Englischkenntnisse in Wort und Schrift; Deutschkenntnisse sowie Erfahrung im Reporting, im Umgang mit Daten oder BI-Tools (z.B.